在 Day19 我們談到資料安全與合規,今天要談的是另一個同樣重要但更容易被忽視的議題:
「AI 模型真的公平嗎?」
當模型輸入的資料帶有偏見,輸出結果自然也會受到影響。
這不僅可能導致錯誤的商業判斷,更可能引發法律與道德爭議。
AI 模型的「智慧」來自於資料與訓練過程。
因此,偏差(Bias)往往源自以下幾個面向:
偏差來源 | 說明 | 範例 |
---|---|---|
資料偏差 (Data Bias) | 訓練資料本身不具代表性 | 模型主要用歐美人臉訓練 → 對亞洲臉辨識不準 |
標註偏差 (Label Bias) | 標註者的主觀意識影響結果 | 標註情緒的標準不同,導致模型理解不一致 |
演算法偏差 (Algorithmic Bias) | 模型在優化時偏好某些結果 | 模型為了提升精準率而忽略少數族群樣本 |
互動偏差 (Interaction Bias) | 使用者輸入行為導致偏差放大 | 使用者常輸入刻板語句,模型學習到錯誤關聯 |
Azure 在 AI 公平性上提供一系列治理與分析工具:
Fairlearn SDK
Responsible AI Dashboard
Google 同樣強調 AI 公平與倫理,提供以下工具:
What-If Tool (WIT)
Model Cards for Model Reporting
Responsible AI Toolkit
項目 | Azure AI Foundry / ML | Vertex AI |
---|---|---|
偏差分析工具 | Fairlearn, Responsible AI Dashboard | What-If Tool, Fairness Indicators |
可解釋性分析 | InterpretML, SHAP 整合 | Explainable AI (XAI) |
模型透明化 | Model Data Sheets | Model Cards |
倫理治理支援 | Responsible AI Standard | Responsible AI Toolkit |
適合場景 | 有明確法規遵循需求(如金融、醫療) | 偏向研究、開發與多國部署場景 |
AI 的價值不只在於「聰明」,更在於「負責任」。
在 Day20 我們學到: